【编者按】

法,国之权衡也,时之准绳也。法律不仅是国家治理的基石,也构成了社会运行的基本框架。在全面推进依法治国背景下,“法学何为”既是法学界的学术命题,也是法律人必须回应的时代之问。

2026年,澎湃新闻继续推出“法学何为”访谈,希望通过对法学界代表性学者的深度对话,呈现他们对法治建设、法学研究与人才培养的思考。本期专访嘉宾为浙江大学数字法治研究院院长孙笑侠。


近年来,孙笑侠致力于数字技术、人工智能与法学及司法的交叉研究,强调司法裁判中“人之判断”不可替代。澎湃新闻记者 林平 摄

数字技术正在深刻改变社会,也给法律带来了新挑战。当既有规则遭遇数字权力、算法与新兴权利等新问题,“法学何为”便成为必须回应的命题。澎湃新闻近日专访孙笑侠教授,围绕这一核心问题,他分享了自己的思考。

在他看来,数字技术“祸兮福兮”,不能只盯着弊端,也不能放任不管,关键是“促进创新与防范风险之间应该达成平衡”。对于人工智能立法,他主张区分AI的“能”与“智”,因为“当不匹配时,风险就存在”。他认为,欧盟式的风险分级监管“是扼杀式的监管——把AI扼死在摇篮”。

AI技术带来的挑战,不止于立法模式的选择,更在于它催生了一种“数字权力”。孙笑侠认为,这种权力掌握在平台、开发者等主体手中,法律必须识别多元权力主体、配置差异化责任。面对个人在数字空间中的弱势地位,他强调应从宪法高度理解身体权与个人信息权,并倡导立法从“权利本位”转向“义务先定”——通过为平台设定技术性义务来重塑“知情同意”机制,使其从形式化的“点击”回归真实的意愿表达。

当数字权力渗透到司法这一特殊场域时,孙笑侠的态度更为审慎。他肯定最高法院明确提出的“辅助审判原则”,认为这为司法数字化划定了“止境”,并进一步主张司法裁判应被设为人工智能的“高风险区”。在他看来,司法活动关乎人本、人道与人权,是“人类活动中最具有思想性和挑战性的活动”,算法只能辅助,不能主导。

这种对“人之判断”的坚持,也贯穿于他对法学范式变革的看法。面对传统法学范式的局限,孙笑侠认为“不能只抱着传统法律和法学当作经典或教义”,而要推动“异质型交叉法学”,与计算机等学科深度结合。他还以“理法师”(网名)自喻,强调法律人在数字时代不能只靠解释旧法来应对新问题,而应从理论出发创造新制度——这份“手艺活”的主体性,恰恰是算法无法替代的。

技术立法:在创新与风险之间寻求平衡

澎湃新闻:您去年在香港大学的一次关于AI法律的学术报告中,重点谈及数字技术“促进创新与防范风险”的平衡。从立法视角看,我们应如何客观看待数字技术的利弊?

孙笑侠:对数字技术的忧虑尤其是对AI的忧虑,源自技术悲观主义、伦理问题、存在主义自主性危机等思潮,国际学术界由此形成“技术谨慎派”与“技术乐观派”的张力。

数字技术,祸兮福兮?在立法上,我们不应只看到弊端,那样的话就会把数字法当作数字技术“管制法”。法学者也好,立法者也好,要改变思路,要客观地看到,数字技术给人类带来的福祉。这包括:一、个人赋能,AI 推动知识处理能力跃升、智能家居、出行平台、外卖配送、在线课程教育、数字支付、远程医疗、健康与生命科学突破。二、经济发展与创新提升,算法优化、智能制造提升生产率,降低成本,提高资源配置效率,催生新产业,全球合作降低成本。三、社会连接与文化创新,社交网络、视频会议、即时通讯让人类关系的时空边界显著缩小,全球连接与社交方式重塑、数字平台促进跨文化理解、让普通人共享AI创作工具、数字艺术平台。四、社会治理与公共服务现代化。更精准的公共服务,如交通管理、环境监测、应急响应等“城市大脑”;实时数据、在线公开、区块链追踪等提升政府透明度与责任性,还有可持续发展与社会公益方面的福祉。如果不看到这些福祉的潜力、机遇与资源,那么数字立法就会盲目甚至是逆动的。

立法者应当更多地看到数字技术带来的福利,才能通过法律来激发和促进科技创新活力。所谓“促进创新”就是挖掘数字技术福祉赋能的潜力;所谓“防范风险”,不是管死AI,而是要用精准适配的监管方式来规制风险,风险控制在最小的范围。何况,数字技术的许多风险和弊端是动态的、阶段化的,有些可以通过技术改善。如果不看到弊端,会导致技术应用放任;如果视技术为洪水猛兽,则会导致过度监管。理论上大家都赞成促进创新与防范风险之间达成平衡,但问题是如何达成,这是数字时代立法最难的难题。

澎湃新闻:您在港大报告中认为AI的“能”与“智”可分可合,主张“能智适配、过程监管”。这一思路如何应对生成式AI等基础模型的特殊规制难题?立法怎样兼顾其技术生态特性,同时防控风险扩散?

孙笑侠:首先,我不否认AI有风险,也主张对其监管,但不是通常方式的监管。你能对自己的孩子从婴儿到成年采取同样的监护方式吗?

立法对AI的态度很重要,尤其是对其“成长”风险的预估。目前人们列举了许多AI风险,但难道这些风险都是同时空并存的吗?我认为有两种错位:其一,有的风险今天存在,有的风险五年十年后才发生;其二,有的风险在此场景是风险,在彼场景则不构成风险,甚至带来福利。比如,同一套算法用于预测交通事故高发区域,是适配的、带来福利的;但若用于决定是否拒绝某个人的就业或信贷机会,则是错配的,有严重风险。

我不看好欧盟式的风险分级监管,因为它是扼杀式的监管——把AI扼死在摇篮。欧盟AI法案按照健康、就业、司法等事务领域划分风险等级,这种笼统的大场景划分,不允许能、智与事之间的适配过程。我国不能走这条路,至少要在不扼制的前提下应用与监管并存。比如司法领域,AI应用程度从低到高有诉讼风险评估、调解方案说明、执行线索查询、类案推送等场景,都可以用AI辅助。

正如你提到的,立法应如何兼顾其技术生态特性与风险扩散可能性?用我们通俗的话说,就是法律如何保证AI既安全又高效地为人服务?这是中国人工智能立法的最应谨慎的难点和焦点。

经过人工智能技术哲学的研究,我认为分析AI风险要区分“能”与“智”,特别是能、智与事(任务)三者是否匹配,不匹配时风险就存在。AI风险之根源在于“能—智—事”之间的错配。我受“德雷福斯模式”启发,正在组织团队设计一个AI“能—智二维分合”技术演进模式,建立从“新手到专家”不同成长阶段的法律态度与监管方式。因此,我们已经有了一个较系统的AI风险监管方案,可称之为“能—智—事适配性风险分级治理机制”。

澎湃新闻:与欧盟、美国的数字法治路径相比,中国在治理理念与制度选择上有何独特性?未来是否有望为全球数字治理提供新范式?

孙笑侠:中国在数字技术发展政策上有自己的包容性特点,因此也体现在数字法治或数字法政策上。目前世界各国数字法治与数字政策还在发展中,风格类型尚未完全定型。中国数字法治与欧美数字法治的发展机遇相对是平等的,或者说在同一起跑线上出发的。

比如,以人工智能立法为例大致有三种类型。一是欧盟《AI法案》为代表,注重安全与人权,以风险等级为立法主轴,按领域(司法、医疗等等)区分AI风险等级,强调事前合规,将AI视为可控的制度性风险源,系统性强但合规成本高。二是美国为代表,注重创新与市场,不设统一AI法,虽然近期也有推进政策统一的动态,通过既有权利法体系回应AI问题,以司法救济为中心,但事后救济为主,难以应对系统性风险。三是韩日新等亚洲国家为代表,虽然走科技创新与发展的路径,但以成文立法来支持人工智能在安全可信条件下的创新与应用。

中国人工智能政策以国家治理目标与社会秩序稳定为核心,分领域规制算法推荐、深度合成、生成式AI等,强调技术向善,执行力强、前置性明显,但权利关系结构与责任分配尚不明确。国家网信办、国家发改委等七部委联合分布的《生成式人工智能服务管理暂行办法》,采用“发展和安全并重”“促进创新和依法治理相结合”和“包容审慎和分类分级监管”。在第三条中,什么是“包容审慎”?“怎么分类分级”?对人工智能的监管又不能采取简单的办法,监管政策和方式设计是我们的难点之一。监管往严格方向就是欧盟式,往宽松方向就是美国式。这从立法上来讲很难,我们关于AI“能—智—事”研究关注的重点就聚焦于这一立法难点。今年两会期间强调加快人工智能立法研究,我相信不久将来,中国人工智能法可能为全球数字治理提供第四种范式。

数字权力:从“规制算法”走向“规制权力”

澎湃新闻:您主张将“数字权力”纳入法学核心概念体系,这是否标志着数字法治的核心任务,要从“规制算法技术”转向“规制数字权力”?

孙笑侠:人类技术进步引起多次工业革命,从来没有一种技术像数字技术这样产生如此巨大的支配力,社会科学称之为“数字权力”。它带来巨大福利,也存在递增风险。

传统法律上的“权力”主要来自国家,今天存在一种技术权力。过去用“利维坦”形容国家机器的利弊两面,今天还有技术“利维坦”。当它向“善”运行时,带来公共善;当它作“恶”时,产生巨大风险。因此我主张将“数字权力”纳入法学和法律概念体系,至少在反垄断法和行政法中亟须考虑。

澎湃新闻:生成式AI重构了权力关系,形成多元主体参与的数字权力结构。法律应当如何精准识别权力主体,并配置与之匹配的约束与责任?

孙笑侠:“算法”是技术,如今却与国法比肩并行。哈佛法学院莱斯格教授说“代码即法律”,一语道破天机。法律无法从根本上改变技术,但可以规制技术权力,用创新制度化解和分担技术力量导致的风险。技术的事情交给技术,社会科学要聚焦在技术与人性相交叉的底层。

前提在于认识并区分数字权力的多样性主体。在AI语境下,法律若只盯着“一个责任人”,必然失灵。比如自动驾驶。在人工智能塑造的新型权力关系中,法律应如何识别并约束其中的“权力者”?真正可行的路径,是在不同治理场景中识别“谁在行使何种数字权力”,再据此配置主体责任。

比如平台用工场景,至少存在平台公司、算法开发者、数据提供者、平台运营部门四个权力主体。法律判断不是追问“谁犯错”,而是谁构成了不对称的算法支配结构,谁就必须承担与其权力强度相匹配的责任。

再如公共治理中的AI决策,如人脸识别、信用评估,多元主体包括行政机关、技术供应商、算法系统本身、制度设计者。关键不是“AI是不是主体”,而是AI是否改变了权力的行使方式与可追责路径。行政机关承担完全的公法责任,技术公司承担辅助性过错责任,制度设计者承担制度性失灵责任。凡是借助AI行使公权力者,必须承担“强化的说明义务+强化的可归责义务”。

总之,法律不应先问“谁作出了决定”,而应先识别:谁在何种程度上,通过技术、数据或制度结构,持续影响他人的行为可能性与权利实现条件。权力识别先于主体归类,主体归类先于责任配置。

肉身个人何以抵抗数字巨兽?国法与算法如何相处?这成为两大关键问题:一是数字权力与数字权利悬殊之间如何建构秩序?二是数字权力与国家权力如何相处?要解决这些问题,必须建构数字法治。

数字权利:身体权的宪法回归与知情同意的重塑

澎湃新闻:数字权力的扩张对应着数字权利的保障需求。您曾结合民法典条款,提出应从宪法层面确认身体权的基本权利属性,核心考量是什么?

孙笑侠:谈到数字权力,必然涉及数字权利。以人体生物采集为例,包括对声纹、掌纹、基因、指纹、虹膜、面部识别特征的采集,涉及两个行为:一是对个人身体的采集,二是个人身体信息的拥有与使用。因此它触及两个法定权利:一是身体权,二是个人信息权。

这种采集是一种借助科技手段的“搜身”行为,只不过更“高级”。我曾论述“身体权是宪法上的基本权利”,还可以进一步论证个人信息权也是基本权利。正是因为政府、平台等主体拥有数字权力,应用新技术触及个人身体权与信息权,保障这两种权利已经回升到宪法性问题,极有必要还原其作为宪法基本权利的性质来加以保障。

澎湃新闻:您提到数字场景下“知情同意”已异化为形式化点击,难以保障真实意愿。那么应当如何重构同意机制,让其回归权利本质?

孙笑侠:在数字世界,平台和用户的力量差距非常大。大多数人不知道自己的数据如何被收集、使用、流转。我们在应用里点击“同意”,往往只是为了尽快继续使用,而不是在真正理解后作出决定。“同意”更像被迫配合的操作,而不是行使权利。表面上的“权利赋予”并未触及数字权力的技术本质。

因此,数字立法要注意传统“权利本位论”思维可能失灵,有必要走“义务先定论”路线。借助哈特关于“第一性规则”的理论,确认责任主体“义务先定”,立法上引入技术设计为“嵌入式义务”。应明确三类行动体的嵌入式义务:一是数据控制者与算法开发者,二是平台治理者,三是国家监管者与制度设计者。数字技术具有高度的“可配置性”,法律可以主动塑造技术的发展路径。

如何重塑“同意”机制?第一,从“一次性同意”转向可持续、可撤回的同意,关键数据用途变更时必须重新触发同意。第二,从“形式告知”转向可理解的信息揭示,平台要说明“你同意之后,平台能对你做什么”。第三,从“用户承担选择成本”转向平台的结构性义务,即使用户同意,某些高风险用途也不得合法化,平台必须默认采取最小必要的数据方案。第四,从“个体点击”转向制度性与技术性替代机制,通过默认保护规则和技术嵌入式约束减少对同意的依赖。

司法禁区:人工智能不得替代法官裁判

澎湃新闻:您曾提出司法信息化应设人文“止境”与三项原则。在智慧司法全面推进的背景下,如何避免这些原则被虚化,真正成为不可突破的刚性红线?

孙笑侠:2021年我发表《论司法信息化的人文“止境”》,针对当时司法信息化热潮,认为法学应反思司法信息技术如何才能不偏离司法规律和人的目的。文章提出必须设定“止境”,强调三个原则:第一,避免对当事人公平受审权的威胁;第二,避免对司法尊严和法庭神圣性的侵蚀;第三,避免过度迷信和依赖智慧司法。

值得庆幸的是,最高法院2022年底发布的《关于规范和加强人工智能司法应用的意见》确立了“辅助审判原则”,明确规定“无论技术发展到何种水平,人工智能都不得代替法官裁判……确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。”这回应了我提出的“司法尊严和法庭神圣原则”。“用户有权选择是否利用司法人工智能辅助,随时退出交互”,这回应了“保护当事人公平受审权原则”。而辅助审判原则正是对应我提出的“不依赖”原则。

最高法院及时作出这一决定,可谓已将原则固化为不可逾越的“红线”。人工智能立法上,之所以需要把AI司法应用界定为高风险领域,这是因为司法是人类活动中最具有思想性和挑战性的活动,又关乎人本、人道与人权,法官对案件的思考与判断,无论何时都不应被人工智能取代。

澎湃新闻:在“辅助审判”红线已明确的前提下,应当通过怎样的制度设计,确保AI始终限于辅助角色,守住司法中“人的判断”主体性?

孙笑侠:最高法院确立的司法AI的辅助性地位,要确保技术不偏离辅助属性、守住人的主体性,“能—智分合”模式是解决这一难题的关键钥匙。应该构建“能-智分合”的分阶段式制度框架。要将司法AI的“能”(数据处理、类案检索、文书生成等标准化能力)与“智”(价值判断、自由裁量、伦理权衡等核心智慧)进行结构性分离。制度设计应强制规定:AI仅能在“能”的层面全权运作,提供证据校验、量刑建议参考等“半成品”;而涉及定罪量刑、事实认定等“智”的环节,必须由法官独立掌控,严禁算法黑箱直接输出裁判结果。这种“分合”机制,从底层逻辑上切断了技术越位的可能,将“辅助”从道德呼吁转化为技术架构上的物理隔离。

司法权是判断权,司法官是判断者。数字时代如何守住“人之判断”?在“能—智分合”理论基础上,具体的制度框架应包含三重刚性约束:一是权限清单制度。以负面清单形式明确禁止AI介入的领域(如主观恶性评估、公序良俗判断),确立“人类保留事项”。二是过程留痕与解释义务。要求系统必须记录法官采纳或拒绝AI建议的理由,若法官完全顺从AI建议而无个性化说理,系统应触发预警,防止“算法依赖”架空审判权。三是责任归属闭环。明确“谁签字谁负责”,无论AI建议多么精准,最终裁判文书的签署者承担全部法律责任,倒逼法官保持主体审视。通过“能-智分合”的理论指引与上述制度的硬性约束,可确保智慧司法建设中,技术始终是法官手中的“利器”,而非替代法官的“判官”,真正实现人在回路、主体归位。

范式革命:法学研究与教育的数字转向

澎湃新闻:在您看来,数字时代是否已引发法学研究与教育的范式革命?为何必须突破传统交叉,走向“异质型交叉法学”?

孙笑侠:正如托马斯·库恩所言,当现有范式遇到无法解释的“异常”时,学科进入危机,引发范式转变。数字时代的法学研究与教育已悄然发生“异常”:在线劳动困境无法用现行劳动法调整,数据权无法用传统物权法保护,数字平台垄断无法用传统反垄断法处理,个人数字权利的实现不是依靠传统的法律或法律关系,而是要有一套必然被嵌入法律的技术刚性义务才能满足权利实现的条件。

我认为,法学与社会科学的交叉已不能满足数字时代法学和法治的要求,必须与自然科学交叉——异质型交叉法学才与这个时代相匹配。这就要求重视数字时代的科际法学。一方面,科际法学突破法学“近亲型”交叉研究,升级为“异质型”科际整合,因而它是法学方法论的急剧变革;另一方面,科际法学的优势在于探寻“可靠事实”、优化“法治方式”甚至通过建模创造良法善治工具,未来可能会更新或覆盖社会实证法学,因而引起法学范式的深刻革命。

澎湃新闻:面向数字时代,法学教育应如何调整课程体系、培养复合型法律人才?怎样与计算机、伦理学等学科实现真正的跨学科融合?

孙笑侠:法学教育正面临迫切的范式变革。我们在法学院开设了数字技术、计算机编程、人工智能、伦理学等课程,但变革不只是增设课程,还涉及教什么、怎么教、学什么、怎么学。首当其冲的前提问题是法学院培养什么样的人才?数十年来我们反复提倡培养“复合型”法律人才,诸如“懂法律、懂经济、懂英语”等等。在今天数字时代,复合型法律人才的要求与内涵在发生变化。它应该是什么?基于科际法学“异质型交叉”的特点,我以为,数字时代要培养“懂法律(根基)、驭技术(手段)、守伦理(底线)”的复合型法律人才。

我们在教学与研究上进行了跨学科共建探索,数字法治研究院与实验室有多位计算机科学专家加盟,在司法人工智能建模研发上实现了实质性科际整合。浙大法学教育重视文理交叉起步于1997年,我任法律系系主任时启动了招收理科生的制度,在全国可能是最早一批。目前我们已有文理交叉的数字法学专业本科班,并建立了数字法学的本—硕—博三层次学位培养体系,这在全国也是首例。

澎湃新闻:您以“理法师”自喻,强调法律人连接规则与现实的核心能力。数字时代下,法律人这份不可替代的判断 “手艺活”,如何不被算法黑箱替代或消解?

孙笑侠:我以“拿着理发剪的理法师傅”自喻,本意是说学法者的看家本领是解释法律,用法教义学方法整理法律。“理法”首先要正确理解法律,再解释和整理,使法律合理化。进而从社会法学与价值法学角度理解法律,从理论上梳理法律原理。

数字社会,许多新问题无法用传统法律解决。法律人天然的保守思维,导致一种误解——用传统法律解释与类推处理新型案件。事实上,数字时代的法律漏洞不同于传统社会,用解释与类推不足以保护当事人权益。比如在线劳动者的加班费可以类推保护,但“离线权”涉及的是自由与尊严问题,任何解释和类推都无法解决。

因此,我认为法律界和法学界应该回应时代,不能只抱着传统法律和法学当作经典或教义。这个时代更需要学法者从理论上去研究、反思、整理和填补,进而创造数字法的新原理与新制度。这应该就是法律人“手艺活”的特质与人的主体性吧。


设计:白浪